首页> 外文OA文献 >Bounds on learning in polynomial time
【2h】

Bounds on learning in polynomial time

机译:多项式时间学习的界限

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

The performance of large neural networks can be judged not only by theirstorage capacity but also by the time required for learning. A polynomiallearning algorithm with learning time $\sim N^2$ in a network with $N$ unitsmight be practical whereas a learning time $\sim e^N$ would allow rather smallnetworks only. The question of absolute storage capacity $\alpha_c$ andcapacity for polynomial learning rules $\alpha_p$ is discussed for severalfeed-forward architectures, the perceptron, the binary perceptron, thecommittee machine and a perceptron with fixed weights in the first layer andadaptive weights in the second layer. The analysis is based partially ondynamic mean field theory which is valid for $N\to\infty$. Especially for thecommittee machine a value $\alpha_p$ considerably lower than the capacitypredicted by replica theory or simulations is found. This discrepancy isresolved by new simulations investigating the learning time dependence andrevealing subtleties in the definition of the capacity.
机译:大型神经网络的性能不仅可以通过它们的存储能力来判断,还可以通过学习所需的时间来判断。在单位为$ N $的网络中,学习时间为$ \ sim N ^ 2 $的多项式学习算法可能是可行的,而学习时间$ \ sim e ^ N $只能允许使用较小的网络。讨论了几种前馈架构,感知器,二进制感知器,委员会机器和第一层中具有固定权重的感知器,以及自适应权重在多项式中的绝对存储容量$ \ alpha_c $和多项式学习规则$ \ alpha_p $的容量的问题。第二层。该分析部分基于动态平均场理论,该理论对$ N \ to \ infty $有效。特别是对于委员会机器,发现$ \ alpha_p $的值大大低于复制理论或模拟所预测的容量。通过研究学习时间依赖性和揭示能力定义中的细微差别的新模拟解决了这种差异。

著录项

  • 作者

    Horner, Heinz; Bethge, Anthea;

  • 作者单位
  • 年度 1997
  • 总页数
  • 原文格式 PDF
  • 正文语种 {"code":"en","name":"English","id":9}
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号